首页> 外文OA文献 >Inexact Regularized Proximal Newton Method: Provable Convergence Guarantees for Non-Smooth Convex Minimization without Strong Convexity
【2h】

Inexact Regularized Proximal Newton Method: Provable Convergence Guarantees for Non-Smooth Convex Minimization without Strong Convexity

机译:不精确正则化的近似牛顿法:可证明的收敛性   非强凸性的非光滑凸最小化保证

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

We propose a second-order method, the inexact regularized proximal Newton(IRPN) method, to minimize a sum of smooth and non-smooth convex functions. Weprove that the IRPN method converges globally to the set of optimal solutionsand the asymptotic rate of convergence is superlinear, even when the objectivefunction is not strongly convex. Key to our analysis is a novel usage of acertain error bound condition. We compare two empirically efficientalgorithms---the newGLMNET and adaptively restarted FISTA---with our proposedIRPN by applying them to the $\ell_1$-regularized logistic regression problem.Experiment results show the superiority of our proposed algorithm.
机译:我们提出了一种二阶方法,即不精确的正则化近侧牛顿(IRPN)方法,以最大程度地减少光滑和非光滑凸函数的总和。我们证明,即使目标函数不是强凸的,IRPN方法也能全局收敛到最优解集,并且收敛的渐近速率是超线性的。我们分析的关键是确定错误约束条件的新颖用法。我们将两个经验有效算法-newGLMNET和自适应重启的FISTA-与我们提出的IRPN进行了比较,将它们应用于$ \ ell_1 $正规化logistic回归问题。实验结果表明了我们提出的算法的优越性。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号